Искусственный интеллект (ИИ) сегодня позволяет решать различные задачи, оптимизировать бизнес-процессы и создавать удобные персонализированные сервисы для граждан. Но уже проведены исследования, показавшие, что столь стремительное развитие технологий вызывает у людей опасения и тревожность. Это связано с тем, что ИИ может заменить какие-то профессии, проявить творческие способности. Технологии развиваются, делаются попытки регулировать этот процесс, стоит задача достичь баланса: сохранить благоприятную законодательную среду для развития разработок с защитой интересов граждан и общества. Каковы тренды развития? Что нас ждёт в ближайшем будущем? К чему готовиться? Дискуссия на тему «Искусственный интеллект и интеллектуальная собственность: точки роста vs угрозы» состоялась на площадке международной конференции ЭРА IP QUORUM.
Заменят ли технологии ИИ и генеративных моделей профессии и творческие способности? Это большой вопрос. В научной среде существует мнение, что в противовес надо развивать у детей и студентов правополушарные способности, которые отвечают за творчество, так считает и Григорий ОСТАПЕНКО, проректор по цифровизации Финансового университета при Правительстве РФ.
— Если рассматривать вопрос в государственном масштабе, то за последние пять лет национальная программа «Цифровая экономика» в целом создала цифровой каркас по всей стране в различных отраслях и направлениях. Рынок ИТ, несмотря на санкции, развивался, появилось около 1 тыс. компаний. В науке и образовании тоже наблюдался рост по числу выпускаемых студентов и количеству бюджетных мест. В 2025 г. стартует новый проект — «Экономика данных». Данные — это новая нефть. Если обратиться к ИИ как новому тренду, то здесь есть существенные возможности и такие же барьеры. Что касается плюсов, это синтетическая структура с неисчерпаемым ресурсом. Синтетических данных, по разным оценкам, уже более половины от общего объёма, и удельный вес такой информации будет увеличиваться. Цифровые двойники, Интернет вещей, генеративные технологии — это и производители данных, и их потребители. С другой стороны, совершенно не проработаны нормативные вопросы, тема кибербезопасности, не хватает дата-центров.
Данные необходимо обрабатывать и предоставлять пользователям, а это рынок Analytics as a service (AaaS). Данный сегмент, по оценке различных аналитических агентств, растёт скачкообразно и к 2028 г. составит порядка 75 млрд долларов. Прогнозируется, что к 2030 г. около 7% ВВП будет задействовано в экономике данных, а 95% отраслей окажутся вовлечены в эти отношения. Пример — использование ИИ на транспорте: уже произведено и внедрено более 80 продуктов; в сельском хозяйстве их количество приближается к 100, а в здравоохранении уже превысило сотню. И если внедрение ИИ в этих отраслях поддерживается государством, то ретейл действует самостоятельно и тоже показывает высокие результаты: «умные» города, промышленность… Очевидно, что сфера растёт.
Если говорить о науке и образовании, то до 2030 г. должны быть выпущены 70 тыс. студентов по технологиям ИИ на стыке с дополнительными знаниями. Стоит амбициозная задача: войти в десятку стран по научной составляющей в области ИИ, что напрямую связано с генерацией стартапов. Сегодня более 100 вузов имеют соответствующие программы, а в Финансовом университете при Правительстве РФ организована отдельная кафедра. По сути, развитие идёт по трём направлениям: наука, кадры и стартапы. В университете создан собственный центр обработки данных на 400 террафлопсов, создаётся VR-пространство, организовываются цифровые кафедры с лидерами рынка. Мы вошли в топ-10 вузов, развивающих данное направление.
С точки зрения эксперта, главный вопрос — этика:
— Для системы высшего образования это большая проблема. Некоторые вузы ввели систему ограничений, приняли соответствующие нормативные документы. Мы по этому пути не пошли. Много анализировали и поняли, что с данным трендом нельзя бороться, а надо его возглавить. Первый момент — креатив. Необходимо выдавать студентам задания, которые максимально задействуют их творческий потенциал. Второй — преподаватели должны стать экспертами и понимать, как технологии работают, не будучи айтишниками. Мы за год обучили 1,5 тыс. педагогов. Полагаю, что на этом стыке может родиться технология работы с генеративными моделями в образовании.
В части создания законодательных рамок многие страны пошли по пути введения так называемых регуляторных песочниц. Это и Сингапур, и Объединённые Арабские Эмираты, и Китай. В нашей стране тоже существует такой экспериментальный правовой режим, он действует практически два года и позволяет тестировать новые технологии. Каких успехов удалось добиться, как этот режим позволяет решить вопросы ответственности за применение ИИ? Какие изменения планируются профильным министерством?
К разговору подключился Владимир ВОЛОШИН, директор Департамента цифрового развития и экономики данных Министерства экономического развития РФ:
— Экспериментальный правовой режим (ЭПР), по сути, возможность при действующем общем регулировании получить отдельную правовую рамку для тестирования тех или иных технологий. Выпускается специальное постановление Правительства РФ, которое фиксирует, для каких компаний, на какой территории и на какой период действуют данные правила и подходы. Альтернативой является изменение общего регулирования, иногда на это уходит полтора-два года, и тот закон, который в итоге появляется, из-за длительного ожидания отстаёт от развития технологий. В случае ЭПР согласование в Минэкономразвития России проходит вместе с инициатором с учётом замечаний и предложений, исходящих от контролирующих органов, чтобы суть не потерялась. За два года нам удалось установить 14 ЭПР, в рамках которых 141 компания, в том числе «Сбер», «Яндекс» и др., даже индивидуальные предприниматели, получила возможность путём изъятий из 30 нормативных актов обойти 150 правовых барьеров. Одно из самых популярных направлений — авиационные беспилотники. В 22 регионах действует экспериментальный режим. Часто технологии опережают регуляторику, но в данном случае техническая готовность у ряда инициаторов оказалась неполной, они только приступают к тем или иным подготовительным работам. Однако есть и те, кто уже летает, мы собираем данные и анализируем ситуацию.
Другая картина с точки зрения готовности — наземные беспилотники. Здесь действуют только три ЭПР, но это очень сильные компании с высоким уровнем технических решений. Только у «Яндекса» в рамках ЭПР уже пройдено 13 млн км, а в целом, включая роботакси и т.п., — 30 млн км. Цифры говорят сами за себя, и мы планируем приступить к анализу результатов.
Два ЭПР действуют в области медицины и телемедицины. Персональные медицинские помощники — первый ЭПР, по которому мы уже подготовили заключение о его эффективности. В рамках реализации проекта почти 20 тыс. человек получили носимые персональные устройства для контроля состояния здоровья (эндокринология и гипертония). За срок чуть более года мы получили все необходимые данные, понимаем, что это работает, и теперь переходим к моменту, чтобы зафиксировать основания для изменения общего регулирования. При этом сам эксперимент мы не останавливаем: цель — обеспечить бесшовность.
Всего поступило 20 заявок на ЭПР, 14 режимов установлено и семь планируем установить. Уже более 80 тыс. специалистов в той или иной роли поучаствовали в экспериментах.
Что мы меняем? У нас есть три поручения Президента РФ, направленные на совершенствование механизма. Мы хотим, чтобы срок установления ЭПР стал короче. Пока что это достаточно сложная процедура. Необходимо сократить количество документов, которые надо подавать, уменьшить срок рассмотрения заявок с 90 дней до 50. Отдельный вопрос — защита результатов интеллектуальной деятельности, регулирование и страхование ответственности. Мы готовим несколько экспериментов по ИИ, но продолжается дискуссия, кому принадлежат права и кто бенефициар, если используются решения с применением ИИ: разработчик или тот, кто предоставил данные. Но чтобы можно было двигаться дальше, мы предложили конструкцию, когда инициаторы договариваются «на берегу». Эту конфигурацию мы зафиксируем в эксперименте. В части страхования отдельно вводится обязательство о том, что в каждом ЭПР будет соответствующее положение. Далеко не по всем технологиям разработаны страховые продукты, но задача анализа последствий и ответственности остаётся актуальной. Пока отношение к данным таково, что они должны быть максимально защищёнными, необходимо научиться обмениваться ими хотя бы в закрытом, безопасном, контуре. Без этого будет сложно продвигать новый национальный проект. С другой стороны, изменения, которые реализуются в законодательстве в части малых технологических компаний и упрощения ЭПР, позволят найти то или иное решение.
Таким образом, законодательная рамка, для того чтобы тестировать и внедрять технологии ИИ, существует. Пока это помощник человека. Есть ли возможность перейти к какой-то другой модели? Если предоставить авторское право нейросети, какие могут возникнуть последствия?
Вопрос прокомментировала Елена АВАКЯН, вице-президент Федеральной палаты адвокатов РФ, член рабочих групп по каждому из направлений госпрограммы «Цифровая экономика» центров компетенций фонда «Сколково»:
— Вопрос авторства в эпоху ИИ стоит остро: мы все задумываемся, не заберут ли роботы то, чем мы привыкли заниматься. Везде и всегда, в том числе в фантастической литературе, проводилась идея о том, что человеку останется творчество. Однако на сегодняшний день ИИ порождает десятки тысяч «декоративно-прикладных» объектов, которые пока не признаются объектами авторского права и не защищаются. Но дьявол кроется в деталях. У нас есть две концепции: презумпция творчества и презумпция авторства. Если первая — в нашу пользу: она говорит о том, что только созданное творческой деятельностью человека подлежит охране, то вторая защищает автора, а это тот, кто заявил о себе.
Несколько примеров.
В США некто г-н Талер обратился с провокационным иском: он потребовал предоставить правовую охрану объектам, созданным ИИ, прошёл по патентным ведомствам всего мира. Ему везде отказали, но интересно, с какой оговоркой: «Несвоевременно. Возможно, в будущем мы сможем предоставить правовую охрану, если определимся с тем, надо ли это делать вообще». Другой кейс. Американская художница Крис Каштанова обратилась с иском, в котором попросила зарегистрировать её автором, и столкнулась с обратной ситуацией. Ей отказали, обратив внимание на то, что слишком многое в её работе сделано нейросетью. Очевидно, что в одной и той же стране вынесли диаметрально противоположные решения, а это означает, что правоохранительные органы не знают, как поступать в этом сегменте.
Нужно ли признавать авторскими объекты, созданные ИИ? Я искренне полагаю, что, до тех пор пока мы способны решать, где лежит водораздел, следует признать ИИ исключительно механизмом, с помощью которого осуществляет свою творческую деятельность человек, и не включать его в число соавторов, а тем более не делать автором.
Вместе с законодательством в нашей стране развиваются нормы так называемого мягкого права. Россия — первая страна, в которой появился Кодекс этики в сфере ИИ. Мы понимаем необходимость регулировать различные коллизии, прорабатывать этические нормы. Сейчас к кодексу, инициированному крупными компаниями, присоединяются государственные органы, университеты, всё больше бизнеса. К дискуссии подключилась руководитель Группы регуляторной поддержки МТС Елена СУРАГИНА:
— Глобально мы создаём этическое регулирование в нашей стране как часть комплексного регулирования в области ИИ и стараемся сделать его сбалансированным, чтобы пользователи могли чувствовать себя спокойно, а технологии — развиваться. Существует убеждение, что запретительные меры тормозят рынок. С коллегами из «Сбера», «Яндекса» и других компаний (их более 200) мы разрабатываем этические практики в сфере ИИ: изучаем конкретные кейсы и рассматриваем их с этической точки зрения. Был предложен российский подход к решению «проблемы вагонетки» (кого должен сбить беспилотник, выбирая между той или иной жизнью), сформулированы принципы прозрачности для разработчиков, проанализированы цифровые двойники. Они среди нас. Технически это уже возможно. Например, один американский врач в области нетрадиционной медицины создал своего клона, который заменяет его на зум-вебинарах и звонках, проводит консультации, а человек успешно получает за это деньги. В Японии официально создают цифровые клоны работников, которым выплачивают зарплату исходя из производительности их цифровых двойников. Это, несомненно, вопрос этики, хотя правовых проблем там тоже много. Этично ли создавать цифровых клонов умерших родственников или двойников, с которыми можно вступать в романтические отношения? Сервисы такие существуют, и в одном из них, который называется «Реплика», как выяснили учёные из Гавайского университета, заложены механизмы привязанности. Он генерирует сочувствующие ответы для пользователей. Для людей, у которых есть сложности с коммуникацией, это может стать реальной проблемой, причём отложенного характера. Сейчас мы работаем над Белой книгой, в которой будет 100 вопросов из сферы этики ИИ. Она адресована и разработчикам: там будут конкретные рекомендации пользователям, которые берут на себя долю ответственности за то, какие запросы они формируют и как распоряжаются ответами.
Дискуссию завершил Г. ОСТАПЕНКО:
— Сейчас все ключевые исследования на мировых площадках сосредоточены на том, как и зачем производятся те или иные данные. Если в любом университете зайти в аудиторию и спросить: «Кто из вас сдавал работу с помощью ChatGPT?», то поднимут руку более 90%. Недавно я был во Вьетнаме и задал тот же вопрос вьетнамским студентам — результат такой же. Абсолютное большинство этими технологиями пользуется. Мы можем как угодно к ним относиться, но это уже происходит. Другое дело, что экспертов: преподавателей, научных сотрудников — надо подтягивать в этом отношении, потому что существует большой разрыв между компетенциями тех, кто применяет ИИ, и тех, кто принимает результаты. Конечно, нормативное регулирование, следование этическим нормам совершенствуют компетенции в данном направлении.
Рубрика: Copyright
Год: 2024
Месяц: Июль/Август
Теги: Искусственный интеллект (ИИ) IP Quorum Интеллектуальная собственность Григорий Остапенко Владимир Волошин Елена Авакян Елена Сурагина